17 RocketMQ 集群性能调优

前言

本篇从系统参数和集群参数两个维度对 RocketMQ 集群进行优化,目的在于 RocketMQ 运行的更平稳。平稳往往比单纯提高 TPS 更重要,文中基于实际生产环境运行情况给出,另外在后面文章中会介绍由于参数设置而引发集群不稳定,业务受到影响的踩坑案例。

系统参数调优

在解压 RocketMQ 安装包后,在 bin 目录中有个 os.sh 的文件,该文件由 RocketMQ 官方推荐系统参数配置。通常这些参数可以满足系统需求,也可以根据情况进行调整。需要强调的是不要使用 Linux 内核版本 2.6 及以下版本,建议使用 Linux 内核版本在 3.10 及以上,如果使用 CentOS,可以选择 CentOS 7 及以上版本。选择 Linux 内核版本 2.6 出现的问题会在后面踩坑案例中提到。

最大文件数

设置用户的打开的最多文件数:

vim /etc/security/limits.conf
# End of file
baseuser soft nofile 655360
baseuser hard nofile 655360
* soft nofile 655360
* hard nofile 655360

系统参数设置

系统参数的调整以官方给出的为主,下面对各个参数做个说明。设置时可以直接执行 sh os.sh 完成系统参数设定,也可以编辑 vim /etc/sysctl.conf 文件手动添加如下内容,添加后执行 sysctl -p 让其生效。

vm.overcommit_memory=1
vm.drop_caches=1
vm.zone_reclaim_mode=0
vm.max_map_count=655360
vm.dirty_background_ratio=50
vm.dirty_ratio=50
vm.dirty_writeback_centisecs=360000
vm.page-cluster=3
vm.swappiness=1

参数说明:

参数 含义
overcommit_memory 是否允许内存的过量分配 overcommit_memory=0 当用户申请内存的时候,内核会去检查是否有这么大的内存空间 overcommit_memory=1 内核始终认为,有足够大的内存空间,直到它用完了为止 overcommit_memory=2 内核禁止任何形式的过量分配内存
drop_caches 写入的时候,内核会清空缓存,腾出内存来,相当于 sync drop_caches=1 会清空页缓存,就是文件 drop_caches=2 会清空 inode 和目录树 drop_caches=3 都清空
zone_reclaim_mode zone_reclaim_mode=0 系统会倾向于从其他节点分配内存 zone_reclaim_mode=1 系统会倾向于从本地节点回收 Cache 内存
max_map_count 定义了一个进程能拥有的最多的内存区域,默认为 65536
dirty_background_ratio/dirty_ratio 当 dirty cache 到了多少的时候,就启动 pdflush 进程,将 dirty cache 写回磁盘 当有 dirty_background_bytes/dirty_bytes 存在的时候,dirty_background_ratio/dirty_ratio 是被自动计算的
dirty_writeback_centisecs pdflush 每隔多久,自动运行一次(单位是百分之一秒)
page-cluster 每次 swap in 或者 swap out 操作多少内存页为 2 的指数 page-cluster=0 表示 1 页 page-cluster=1 表示 2 页 page-cluster=2 表示 4 页 page-cluster=3 表示 8 页
swappiness swappiness=0 仅在内存不足的情况下,当剩余空闲内存低于 vm.min_free_kbytes limit 时,使用交换空间 swappiness=1 内核版本 3.5 及以上、Red Hat 内核版本 2.6.32-303 及以上,进行最少量的交换,而不禁用交换 swappiness=10 当系统存在足够内存时,推荐设置为该值以提高性能 swappiness=60 默认值 swappiness=100 内核将积极的使用交换空间

集群参数调优

生产环境配置

下面列出一份在生产环境使用的配置文件,并说明其参数所表示的含义,只需要稍加修改集群名称即可作为生产环境啊配置使用。

配置示例:

brokerClusterName=testClusterA
brokerName=broker-a
brokerId=0
listenPort=10911
namesrvAddr=x.x.x.x:9876;x.x.x.x::9876
defaultTopicQueueNums=16
autoCreateTopicEnable=false
autoCreateSubscriptionGroup=false
deleteWhen=04
fileReservedTime=48
mapedFileSizeCommitLog=1073741824
mapedFileSizeConsumeQueue=50000000
destroyMapedFileIntervalForcibly=120000
redeleteHangedFileInterval=120000
diskMaxUsedSpaceRatio=88
storePathRootDir=/data/rocketmq/store
storePathCommitLog=/data/rocketmq/store/commitlog
storePathConsumeQueue=/data/rocketmq/store/consumequeue
storePathIndex=/data/rocketmq/store/index
storeCheckpoint=/data/rocketmq/store/checkpoint
abortFile=/data/rocketmq/store/abort
maxMessageSize=65536
flushCommitLogLeastPages=4
flushConsumeQueueLeastPages=2
flushCommitLogThoroughInterval=10000
flushConsumeQueueThoroughInterval=60000
brokerRole=ASYNC_MASTER
flushDiskType=ASYNC_FLUSH
maxTransferCountOnMessageInMemory=1000
transientStorePoolEnable=false
warmMapedFileEnable=false
pullMessageThreadPoolNums=128
slaveReadEnable=true
transferMsgByHeap=true
waitTimeMillsInSendQueue=1000

参数说明:

参数 含义
brokerClusterName 集群名称
brokerName broker 名称
brokerId 0 表示 Master 节点
listenPort broker 监听端口
namesrvAddr namesrvAddr 地址
defaultTopicQueueNums 创建 Topic 时默认的队列数量
autoCreateTopicEnable 是否允许自动创建主题,生产环境建议关闭,非生产环境可以开启
autoCreateSubscriptionGroup 是否允许自动创建消费组,生产环境建议关闭,非生产环境可以开启
deleteWhen 清理过期日志时间,04 表示凌晨 4 点开始清理
fileReservedTime 日志保留的时间单位小时,48 即 48 小时,保留 2 天
mapedFileSizeCommitLog 日志文件大小
mapedFileSizeConsumeQueue ConsumeQueue 文件大小
destroyMapedFileIntervalForcibly
redeleteHangedFileInterval
diskMaxUsedSpaceRatio 磁盘最大使用率,超过使用率会发起日志清理操作
storePathRootDir RocketMQ 日志等数据存储的根目录
storePathCommitLog CommitLog 存储目录
storePathConsumeQueue ConsumeQueue 存储目录
storePathIndex 索引文件存储目录
storeCheckpoint checkpoint 文件存储目录
abortFile abort 文件存储目录
maxMessageSize 单条消息允许的最大字节
flushCommitLogLeastPages 未 flush 的消息大小超过设置页时,才执行 flush 操作;一页大小为 4K
flushConsumeQueueLeastPages 未 flush 的消费队列大小超过设置页时,才执行 flush 操作;一页大小为 4K
flushCommitLogThoroughInterval 两次执行消息 flush 操作的间隔时间,默认为 10 秒
flushConsumeQueueThoroughInterval 两次执行消息队列 flush 操作的间隔时间,默认为 60 秒
brokerRole broker 角色 ASYNC_MASTER 异步复制的 Master 节点 SYNC_MASTER 同步复制的 Master 节点 SLAVE 从节点
flushDiskType 刷盘类型 ASYNC_FLUSH 异步刷盘 SYNC_FLUSH 同步刷盘
maxTransferCountOnMessageInMemory 消费时允许一次拉取的最大消息数
transientStorePoolEnable 是否开启堆外内存传输
warmMapedFileEnable 是否开启文件预热
pullMessageThreadPoolNums 拉取消息线程池大小
slaveReadEnable 是否开启允许从 Slave 节点读取消息 内存的消息大小占物理内存的比率,当超过默认 40%会从 slave 的 0 节点读取 通过 accessMessageInMemoryMaxRatio 设置内存的消息大小占物理内存的比率
transferMsgByHeap 消息消费时是否从堆内存读取
waitTimeMillsInSendQueue 发送消息时在队列中等待时间,超过会抛出超时错误

调优建议

对 Broker 的几个属性可能影响到集群性能的稳定性,下面进行特别说明。

1. 开启异步刷盘

除了一些支付类场景、或者 TPS 较低的场景(例如:TPS 在 2000 以下)生产环境建议开启异步刷盘,提高集群吞吐。

flushDiskType=ASYNC_FLUSH

2. 开启 Slave 读权限

消息占用物理内存的大小通过 accessMessageInMemoryMaxRatio 来配置默认为 40%;如果消费的消息不在内存中,开启 slaveReadEnable 时会从 slave 节点读取;提高 Master 内存利用率。

slaveReadEnable=true

3. 消费一次拉取消息数量

消费时一次拉取的数量由 broker 和 consumer 客户端共同决定,默认为 32 条。Broker 端参数由 maxTransferCountOnMessageInMemory 设置。consumer 端由 pullBatchSize 设置。Broker 端建议设置大一些,例如 1000,给 consumer 端留有较大的调整空间。

maxTransferCountOnMessageInMemory=1000

4. 发送队列等待时间

消息发送到 Broker 端,在队列的等待时间由参数 waitTimeMillsInSendQueue 设置,默认为 200ms。建议设置大一些,例如:1000ms~5000ms。设置过短,发送客户端会引起超时。

waitTimeMillsInSendQueue=1000

5. 主从异步复制

为提高集群性能,在生成环境建议设置为主从异步复制,经过压力测试主从同步复制性能过低。

brokerRole=ASYNC_MASTER

6. 提高集群稳定性

为了提高集群稳定性,对下面三个参数进行特别说明,在后面踩坑案例中也会提到。

关闭堆外内存:

transientStorePoolEnable=false

关闭文件预热:

warmMapedFileEnable=false

开启堆内传输:

transferMsgByHeap=true